首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏leehao

    Ollama整合open-webui

    open-webui open-webui Open WebUI is an extensible, feature-rich, and user-friendly self-hosted WebUI For more information, be sure to check out our Open WebUI Documentation. 环境要求 熟练使用python Node.js >= 20.10 Python >= 3.11 步骤 克隆代码 git clone https://github.com/open-webui/open-webui.git cd open-webui/ 拷贝.env文件,可鼠标右键复制粘贴 # Copying required .env file cp -RPp .env.example .env 构建前端页面 #

    47910编辑于 2025-02-11
  • 来自专栏运维小路

    DeepSeek-Open WebUI部署

    如何才能更好的实现访问呢,这个就是我们今天要讲的Open WebUI,它可以向我们使用官方DeepSeek一样直接在网页进行对话。 Pipelines 插件支持:使用 Pipelines 插件框架将自定义逻辑和 Python 库无缝集成到 Open WebUI 中 1.创建conda 虚拟环境 conda create --name openwebui python=3.12.9 2.安装Open WebUI pip install open-webui -i https://mirrors.aliyun.com/pypi/simple / 3.启动Open WebUI # 禁用OLLAMA API export ENABLE_OLLAMA_API=False # 设置OpenAI API的基础URL为本地服务器 export OPENAI_API_BASE_URL WebUI open-webui serve 4.配置Open WebUI 5.开始提问

    1.5K00编辑于 2025-03-04
  • 来自专栏前端必修课

    Open WebUI 文本效率分析工具

    今天,我要分享一个我为 Open WebUI 开发的实用小工具 —— 一个能够实时统计文本生成效率的 Python 函数。 import BaseModel, Field from typing import Optional, Callable, Any, Awaitable import re import time from open_webui.utils.misc

    36110编辑于 2025-03-07
  • 来自专栏Java Tale

    open-webui镜像启动失败

    COMMAND CREATED STATUS PORTS NAMES 948e39d916a7 ghcr.io/open-webui /open-webui:main "bash start.sh" 7 seconds ago Up 7 seconds 0.0.0.0:11433->8080/tcp ollama-webui 看了日志才知道,原来是open-webui启动时期需要首先在线安装transformers库,但是huggingface.co对于国内来说是经常不可访问):   于是赶紧求助bing,找到一个镜像网站, 完整的命令行如下: docker run -d \ --restart unless-stopped \ --name ollama-webui \ -p 11433:8080 \ =12345678 \ ghcr.io/open-webui/open-webui:main 本文由 小马哥 创作,采用 知识共享署名4.0 国际许可协议进行许可 本站文章除注明转载

    1.4K10编辑于 2024-08-15
  • 今日高质量开源项目:Open WebUI (原 Ollama WebUI)

    一分钟极速部署#使用Docker一键启动(假设已安装Ollama并拉取模型)dockerrun-d-p3000:8080\-vopen-webui:/app/backend/data\--nameopen-webui \--restartalways\ghcr.io/open-webui/open-webui:main#访问http://localhost:3000#首次登录创建账户,然后在设置中连接本地Ollama 项目地址GitHub:https://github.com/open-webui/open-webui官网:https://openwebui.com/总结:个人AI基础设施的成熟标志OpenWebUI

    2.5K30编辑于 2026-01-27
  • 来自专栏LLM

    Open-WebUI 接入腾讯混元大模型

    25.1.10记:Open WebUI docker容器更新可能会导致腾讯云官方提供的Python SDK 丢失,需要重新安装环境(参照步骤1.b)。 1. 前置要求         a. 打开Open WebUI的控制台,安装腾讯云官方提供的Python SDK                i. 我部署的设备是unraid,点击图标,然后点击WebUi下的Console,进入控制台(里面是Linux的terminal),复制并执行下面的命令。           前往Open WebUI社区,选择function然后搜索Tencent HunyuanAI,或者直接点击这里                 ii. 点击get,输入自己Open Webui的地址就直接跳往安装。         b. 填写密钥                 i. 点击齿轮按钮依次输入刚刚获取的密钥就行         c.

    1K11编辑于 2025-01-10
  • 来自专栏数据仓库技术

    通过ollama+open webui可视化运行gemma

    今天给大家介绍一个本地运行大模型的工具ollama,能够让我们方便地运行各种大模型,Open Webui 界面化的管理使用各种大模型。 ollama pull gemma:7b 然后再执行上面命令,显示下面内容代表模型gemma已经运行了,可以开始对话了 我们测试一下: 2.安装Open Webui 2.1 安装Docker docker-desktop 2.3 安装Open Webui 执行docker命令安装 docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 安装完成后,您可以通过http://localhost:3000访问 Open WebUI 至此安装完成 3.Open Webui 运行模型 界面如下 依次选择模型,选择对应的模型后,在3处输入内容即可

    9.6K31编辑于 2024-03-06
  • 来自专栏开发三两事

    llama3&open-webui快速实现本地模型搭建

    running就表示运行成功了 docker桌面下载 下载地址:https://www.docker.com/products/docker-desktop/ 下载完成后启动运行,可以看到如下界面 搜索框搜open-webui 大家可以直接搜索 llama3-8b-chinese-chat-ollama-q8 这个模型是对llama3进行了中文微调后的模型,相对对中文比较友好 一般小型模型也得几个G,下载需要一会时间等待,下载完成在webui ,不过一般个人电脑也仅仅是运行起来,速度比较慢,只能满足下自己日常的好奇心,真正要投入生产还是需要一个不错的机器才行,自己也可以下一些响应速度更快的mini模型测试 接口调用的使用方式 以上展示了使用open-webui

    2.3K50编辑于 2024-04-29
  • 来自专栏运维小路

    DeepSeek-容器化(Docker)部署vLLM和Open WebUI

    apt-get update apt-get install -y nvidia-docker2 systemctl restart docker 3.下载镜像 docker pull ghcr.io/open-webui /open-webui:cuda docker pull vllm/vllm-openai 4.运行vLLM容器 docker run -d \ --gpus all \ --restart unless-stopped 5.运行Open WebUI容器 docker run -d \ --name openwebui-container \ --network host \ --gpus all \ - http://localhost:8000/v1 \ -e OPENAI_API_KEYS=OPENWEBUI123 \ -e USE_CUDA_DOCKER=true \ ghcr.io/open-webui /open-webui:cuda 6.验证DeepSeek #Open WebU访问地址,先创建管理员,然后进入对话界面, http://x.x.x.x:8080

    7.6K10编辑于 2025-03-06
  • 来自专栏码匠的流水账

    使用open-webui+deepseek构建本地AI知识库

    序本文主要研究一下如何使用OpenWebUI+deepseek构建本地AI知识库步骤拉取open-webui镜像docker pull ghcr.io/open-webui/open-webui:maindocker 启动docker run -d -p 3000:8080 \-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \ghcr.io/open-webui /open-webui:main执行完之后等一会(大概要三四分钟)启动起来了访问http://localhost:3000/,注册管理员账号,注册完要等一会(估计要七八分钟)页面才出来可以-v . /open-webui-data:/app/backend/data来挂载数据看日志是有报错ERROR [open_webui.routers.openai] Connection error: Cannot ] get_all_models()INFO [open_webui.routers.ollama] get_all_models()INFO [open_webui.routers.ollama]

    4.7K10编辑于 2025-02-18
  • 来自专栏轩辕镜像

    玩转本地大模型:Ollama + Open WebUI简明使用指南

    就 Ollama GUI 而言,根据不同偏好,有许多选择: Web 版:Ollama WebUI 具有最接近 ChatGPT 的界面和最丰富的功能特性,需要以 Docker 部署; Ollama WebUI

    15.9K12编辑于 2024-09-29
  • 来自专栏Mintimate's Blog

    看看 Ollama 和 Open WebUI如何配合

    Open WebUI 部署同样,有两种方法可以部署 Open WebUI,分别是 Docker 安装和 Python pip 安装。既没有 Docker,也不想使用 Python? open-webui# 启动 Open WebUIopen-webui serve如果你想使用 Docker 部署 Open WebUI,那么可以参考 Open WebUI 官方文档。 /open-webui/open-webui:main解释一下参数:-p 3000:8080:将容器的 8080 端口映射到主机的 3000 端口;--add-host=host.docker.internal 浏览器访问 http://localhost:3000,即可进入 Open WebUI 的界面。根据提示初始化账号即可:如果开启后,卡在加载界面。可以进入 Open WebUI 的容器内。 配置 Open WebUI其实本地 Open WebUI 和 Ollama 的配置,已经做到了开箱即用。存在部分情况需要设置 API 接口,或者设置远程 ollama 的接口用于本地调用。

    2.5K01编辑于 2025-02-18
  • 来自专栏用户2141488的专栏

    容器环境下部署Open-webui、One-api、Ollama、Deepseek

    Open-webui 是一种友好的 Web 用户界面,专为大语言模型(LLM)设计,支持包括 Ollama 和 OpenAI 兼容的 API。 total_tokens":35}} #### api请求工具(如postman、apipost等等,这里我用的是apipost工具) #### 查看 token 消耗 可以看到上面有2次请求,已经消耗了一些token Open-webui docker run --name open-webui -d -p 8080:8080 --add-host=host.docker.internal:host-gateway -v /home /ubuntu/data/open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webuiOpen-webui 提供了一个非常友好的web交互界面,让用户可以不用懂代码、不用懂开发就能体验私有化大模型,One-api 提供了一个非常优秀的安全鉴权措施,2个工具都是拿来开箱即用,非常方便;

    2.3K11编辑于 2025-03-20
  • 来自专栏运维知识

    使用Ollama和Open WebUI管理本地开源大模型的完整指南

    目录 ✨️Open-WebUI介绍 优点 部署教程 1.打开官网地址 2.安装Docker 3.Open WebUI下载 ️‍️功能介绍 1.AI编程 2.聊天历史 3.自定义Web的界面 ✨️Open-WebUI --restart always ghcr.io/open-webui/open-webui:main 参数详解 docker run: 启动一个新的 Docker 容器。 -v open-webui:/app/backend/data: 将本地的 open-webui 卷映射到容器内的 /app/backend/data 目录。 --name open-webui: 为容器指定一个名称 open-webui,以便于管理和识别。 ghcr.io/open-webui/open-webui:main: 使用来自 GitHub 容器注册表(GitHub Container Registry)的 open-webui 镜像,并指定使用

    32.8K32编辑于 2024-06-03
  • 来自专栏网络安全技术点滴分享

    CVE-2025-64495:Open WebUI存储型DOM XSS漏洞分析与利用

    CVE-2025-64495:Open WebUI存储型DOM XSS漏洞分析与利用 项目概述CVE-2025-64495是一个影响Open WebUI版本<= 0.6.34的高危安全漏洞。 漏洞状态:发布时间: 2025年11月7日修复时间: 2025年11月8日修复版本: Open WebUI 0.6.35漏洞评分: 8.7/10(高危)⚡ 功能特性与漏洞影响核心功能分析富文本提示功能 - Open WebUI允许用户以富文本格式插入提示信息多用户协作 - 支持多个用户同时使用和共享提示功能扩展 - 管理员可通过“Functions”功能在服务器端执行Python代码漏洞影响范围攻击向量 : AV:N/AC:L/PR:L/UI:R/S:C/C:H/I:H/A:N所需权限: 低 - 任何能够访问提示功能的用户影响版本: Open WebUI <= 0.6.34独特价值说明此漏洞的特殊之处在于将存储型 安装与复现环境环境要求受影响版本: Open WebUI <= 0.6.34浏览器环境: 现代浏览器支持JavaScript网络访问: 可访问目标Open WebUI实例复现步骤部署Open WebUI

    15310编辑于 2026-02-10
  • # 🚀 Open WebUI × Ollama:小白轻松打造私有化 AI 帝国的终极指南

    reservations:devices:-driver:nvidiacount:allcapabilities:[gpu]restart:alwaysnetworks:-ai-networkopen-webui :image:ghcr.io/open-webui/open-webui:maincontainer_name:open-webuiports:-"3000:8080"environment:-OLLAMA_BASE_URL **启动OpenWebUI容器**:dockerrun-d\--nameopen-webui\-p3000:8080\-eOLLAMA_BASE_URL=http://<你的OllamaIP>:11434 \-vopen-webui-data:/app/backend/data\--restartalways\ghcr.io/open-webui/open-webui:main`第三章:核心功能实战——超越简单的聊天 访问控制:修改默认WEBUI_SECRET_KEY。在Ollama侧配置OLLAMA_HOST仅监听内网IP,防止未授权访问。

    28310编辑于 2026-03-23
  • 来自专栏ceshiren0001

    Open WebUI 和 Dify 在构建企业AI应用时的主要区别

    在企业AI应用的构建过程中,Open WebUI 和 Dify 作为两大主流开源工具,定位和功能差异显著。 企业级功能支持Open WebUI✅ 基础权限管理(RBAC)✅ 对话记录加密存储❌ 无工作流编排,仅支持单模型对话适用场景:内部测试、轻量级知识问答(需搭配其他工具扩展RAG)。 (BM25+语义)外部系统对接有限(通过API调用)深度集成(企业微信、钉钉、数据库等) 关键差异:Dify 提供 端到端RAG流水线(上传→切块→检索→生成),而 Open WebUI 需额外工具链支持 Open WebUI(快速试错)生产系统 → Dify(全流程开发) + 自研模块(补足安全/性能短板)五、总结:核心差异全景图对比维度Open WebUIDify核心价值模型交互的“可视化门户”AI应用的 WebUI(如医生问诊助手)需 多系统集成+业务流程 → Dify(如智能客服中心)企业可结合“Dify核心层 + Open WebUI交互层”的混合架构,兼顾开发效率与用户体验。

    68210编辑于 2025-07-16
  • 无需公网IP,内网穿透远程访问Ollama+Gemma3模型+Open WebUI教程

    本地部署Ollama搭配开源视觉模型Gemma3和Open WebUI,不仅可离线运行强大多模态大模型,还通过图形界面实现便捷交互,兼顾隐私、安全与易用性。 2.打开命令提示符拉取Open WebUI Docker镜像docker pull ghcr.io/open-webui/open-webui:main3.启动容器并绑定Ollamadocker run-d \ --name open-webui \ ghcr.io/open-webui/open-webui:main-p 3000:8080:本地开放端口为3000OLLAMA_BASE_URL指向你主机上的 用花生壳内网穿透映射Open WebUI,实现远程访问前往贝锐花生壳官网,根据系统版本下载安装客户端,随后启动花生壳客户端并登录。 远程访问使用贝锐花生壳生成的固定访问链接,即可直接访问到本地部署的Open WebUI

    2.2K20编辑于 2025-06-30
  • 使用腾讯云服务器访问open claw的webUI界面(保姆级别教程)

    服务器购买配置网关部分操作1.购买带有open claw镜像模板的服务器2.检查对应的服务是否监听到公网地址0.0.0.0上2.1登录服务器目前openclaw使用的操作系统是Ubuntu操作系统,远程登录进来是 访问导致的目前查看以及生效了,但是依旧是由于浏览器强制不允许http访问导致的,若需要解决的话,需要配置端口映射,映射到本地来实现访问配置端口转发实现访问参考链接:玩转OpenClaw|如何访问OpenClaw WebUI

    4.3K97编辑于 2026-03-10
  • 来自专栏Java实战博客

    Nginx WebUI

    使用:首先下载的发行包是没有编译的,只要电脑装有Maven与JDK即可,点击buildx.sh 等待一会即可打包完成!打包完成会在 target文件夹下面找到你的jar包,然后你就可以正常启动了

    70710编辑于 2022-04-15
领券